A medida que las personas recurren cada vez más a la inteligencia artificial en busca de asesoramiento, algunos abogados estadounidenses advierten a sus clientes que no traten a los chatbots de IA como confidentes de confianza cuando su libertad o responsabilidad legal están en juego.
Estas advertencias se volvieron más urgentes después de que un juez federal en Nueva York dictaminara, Este año se supo que el ex director ejecutivo de una empresa de servicios financieros en quiebra no pudo ocultar sus conversaciones con inteligencia artificial a los fiscales que lo acusaban de fraude de valores. Tras el fallo judicial, los abogados han advertido que los fiscales en casos penales o las partes litigantes en casos civiles podrían exigir conversaciones con chatbots como Claude de Anthropic y ChatGPT de OpenAI.
«Les estamos diciendo a nuestros clientes: deben proceder con cautela», dijo Alexandria Gutiérrez Swette, abogada del bufete Kobre & Kim, con sede en Nueva York. Las conversaciones entre particulares y abogados casi siempre se consideran confidenciales según la ley estadounidense. Sin embargo, los chatbots de IA no son abogados, y los letrados están aconsejando a sus clientes que tomen medidas para que sus comunicaciones con las herramientas de IA sean más privadas.
En correos electrónicos a clientes y avisos publicados en sus sitios web, más de una docena de importantes bufetes de abogados estadounidenses han esbozado consejos para que las personas y las empresas reduzcan las posibilidades de que los chats con inteligencia artificial acaben en los tribunales. Advertencias similares también aparecen en los contratos de algunas firmas con sus clientes. Por ejemplo, la firma Sher Tremonte, con sede en Nueva York, declaró en un contrato reciente con un cliente que compartir el asesoramiento o las comunicaciones de un abogado con un chatbot podría anular la protección legal conocida como secreto profesional entre abogado y cliente, que normalmente ampara las comunicaciones entre abogados y sus clientes.
UN FALLO JUDICIAL
El caso que ayudó a hacer sonar las alarmas involucró a Bradley Heppner, expresidente de la empresa de servicios financieros en quiebra GWG Holdings y fundador de la firma de activos alternativos Beneficent Heppner fue acusado por fiscales federales el pasado mes de noviembre de fraude de valores y fraude electrónico , y se declaró inocente. Heppner había utilizado el chatbot Claude de Anthropic para preparar informes sobre su caso y compartirlos con sus abogados, quienes posteriormente argumentaron que sus conversaciones con la IA debían mantenerse en secreto porque contenían detalles de los abogados relacionados con su defensa.
Los fiscales argumentaron que tenían derecho a exigir el material que Heppner creó con Claude porque sus abogados defensores no estuvieron directamente involucrados y porque el privilegio abogado-cliente no se aplica a los chatbots. Revelar voluntariamente información de un abogado a un tercero puede poner en peligro las protecciones legales habituales para esas comunicaciones entre abogados.
El juez de distrito estadounidense Jed Rakoff, con sede en Manhattan, dictaminó, En febrero se le ordenó a Heppner que entregara 31 documentos generados por el chatbot Claude de Anthropic relacionados con el caso.
Según escribió Rakoff, no existe ni podría existir una relación abogado-cliente entre un usuario de IA y una plataforma como Claude.
Los abogados de Heppner no respondieron de inmediato a las solicitudes de comentarios. Un portavoz de la fiscalía federal de Manhattan declinó hacer declaraciones. Los tribunales ya están lidiando con el creciente uso de la inteligencia artificial por parte de abogados y personas que se representan a sí mismas en casos judiciales, lo que, entre otras cosas, ha dado lugar a la presentación de demandas que contienen casos ficticios inventados por la IA.
La decisión de Rakoff fue una importante prueba inicial en la era de los chatbots de IA para las protecciones legales fundamentales que rigen las comunicaciones entre abogados y clientes y los materiales preparados para litigios. El mismo día del fallo de Rakoff, el juez magistrado estadounidense Anthony Patti, de Michigan, declaró que una mujer que se representaba a sí misma en una demanda que interpuso contra su antigua empresa no tenía que entregar sus conversaciones con ChatGPT de OpenAI sobre las alegaciones laborales formuladas en el caso.
Patti trató las conversaciones con la IA de la mujer como parte de su propio «producto de trabajo» personal para el caso, en lugar de como conversaciones con una persona que su empleador podría intentar utilizar para su defensa. ChatGPT y otros programas de IA generativa «son herramientas, no personas», escribió Patti en su orden., abre una nueva pestaña. Los términos de privacidad y uso de OpenAI y Anthropic establecen que las empresas pueden compartir datos de sus usuarios con terceros. Ambas también indican que exigen que los usuarios consulten a un profesional cualificado antes de recurrir a sus chatbots para obtener asesoramiento legal.
En una audiencia celebrada en febrero en el caso de Heppner, Rakoff señaló que Claude «estableció expresamente que los usuarios no tienen ninguna expectativa de privacidad en sus datos». Los representantes de OpenAI y Anthropic no respondieron de inmediato a las solicitudes de comentarios.
ABOGADOS SE COMPITEN POR ESTABLECER MEDIDAS DE SEGURIDAD
Los consejos de los abogados han abarcado desde recomendar a los clientes que seleccionen cuidadosamente sus plataformas de IA hasta sugerir un lenguaje específico para usar en los mensajes de los chatbots. La firma O’Melveny & Myers, con sede en Los Ángeles, y otras empresas indicaron en comunicados a sus clientes que los sistemas de IA «cerrados» diseñados para uso corporativo podrían ofrecer una mayor protección para las comunicaciones legales, aunque señalaron que incluso esto aún no se ha puesto a prueba en gran medida.
Algunas firmas afirmaron que la investigación jurídica mediante IA tiene más probabilidades de estar protegida por el secreto profesional cuando se realiza bajo la dirección de un abogado. Si un abogado recomienda el uso de IA, el usuario debe indicarlo en el mensaje del chatbot, según un aviso publicado en su sitio web por el bufete Debevoise & Plimpton, con sede en Nueva York. «Estoy realizando esta investigación siguiendo las instrucciones del abogado del litigio X», sugería la firma que escribieran las personas.
Según un análisis de Reuters de los contratos publicados en un sitio web del gobierno estadounidense, la información sobre el uso de la IA también se está volviendo común en los contratos que utilizan los bufetes de abogados con sus clientes. Sher Tremonte, que a menudo representa a acusados de delitos económicos, declaró en un nuevo contrato en marzo: «La divulgación de comunicaciones privilegiadas a una plataforma de IA de terceros puede constituir una renuncia al privilegio de confidencialidad entre abogado y cliente».
Justin Ellis, del bufete de abogados MoloLamken, con sede en Nueva York, y otros abogados dijeron que esperan que con el tiempo más fallos judiciales aclaren cuándo se pueden utilizar los chats de IA como prueba. Hasta entonces, los abogados afirman que sigue vigente una premisa muy antigua: no hable con nadie sobre su caso, excepto con su abogado, ni siquiera con la IA.
Reportaje de Mike Scarcella; Edición de David Bario, Amy Stevens y Will Dunham.
Fuente: reuters


